17 research outputs found

    Prototipo de Mamografias PROTOCAM Animado

    Get PDF
    Video explica sobre el Cáncer de mama y las formas de detección, así mismo contiene las ideas principales del proyecto, el video busca dar a conocer la aplicación, así como sus ventajas en el tema tratado.Universidad Tecnológica de Pereir

    Recuperación de información por contenido orientada a la clasificación de grupos de microcalcificaciones en mamografías - Protocam

    Get PDF
    En este libro se presentan los alcances y resultados del proyecto de investigación denominado “Prototipo de un sistema de recuperación de información por contenido orientado a la clasificación de grupos de microcalcificaciones en mamografías”, proyecto al que se ha denominado por el acrónimo PROTOCAM. Este proyecto fue desarrollado de manera conjunta por el Grupo de Investigación en Automática y por el GIADSc (Grupo de Investigación en Análisis de Datos y Sociología Computacional), ambos grupos adscritos al Programa de Ingeniería Eléctrica de la Facultad de Ingenierías de la Universidad Tecnológica de Pereira. El objetivo del proyecto de investigación y, por tanto, el tema central que se aborda en este libro es el desarrollo de una metodología de recuperación de información cuyo fin último es asistir a los especialistas médicos en el análisis de imágenes de mamografías digitales y en el posterior descubrimiento de patrones que puedan ser indicadores de la existencia de microcalcificaciones en los tejidos mamarios. Este desarrollo, enmarcado dentro de las ciencias de la computación y, más específicamente, en el área del aprendizaje de máquina, podría coadyuvar a los especialistas en la detección temprana del cáncer de mama, permitiéndoles acceder a través de un sistema inteligente de recuperación de información a datos históricos de diagnósticos confirmados que estén estrechamente relacionados con las características puntuales del caso bajo estudio. En este libro se presentan en detalle cada una de las técnicas utilizadas en los módulos que componen la metodología, además de su funcionamiento y de los resultados obtenidos sobre bases de datos previamente etiquetadas. Cabe destacar que el proyecto de investigación del cual nació esta metodología fue financiado por la Vicerrectoría de Investigaciones, Innovación y Extensión de la Universidad Tecnológica de Pereira en la convocatoria interna para financiar proyectos de investigación de grupos año 2018. El proyecto de investigación se enmarcó en la categoría de Investigación Aplicada y el Comité de Bioética de la Universidad Tecnológica de Pereira lo clasificó como una investigación sin riesgo, ya que no se realiza ninguna intervención o modificación intencionada de variables biológicas, fisiológicas, psicológicas o sociales de las personas que participan en el estudio. De hecho, la metodología experimental empleada en el desarrollo de este trabajo se basa en el análisis y procesamiento de imágenes de bases de datos y no implica ningún tipo de estudio en el que se involucren directamente pacientes

    Herramienta diagnostica en pacientes con TDAH

    Get PDF
    El audio, contiene una explicación sobre como se identifica y diagnostica el TDAH, sobre lo que se debe realizar al Identificar el TDAH en niños, de igual forma se habla sobre el proyecto de investigación y la aplicación creada dentro del proyecto, la finalidad del audio es tratar el tema de forma general.Minciencia

    Estimación de características relevantes para el monitoreo de condición de motores de combustión interna a partir de señales de vibración

    Get PDF
    Condition monitoring of Internal Combustion Engines (ICE) benefits cost-effective operations in the modern industrial sector. Because of this, vibration signals are commonly monitored as part of a non-invasive approach to ICE analysis. However, vibration-based ICE monitoring poses a challenge due to the properties of this kind of signals. They are highly dynamic and non-stationary, let alone the diverse sources involved in the combustion process. In this paper, we propose a feature relevance estimation strategy for vibration-based ICE analysis. Our approach is divided into three main stages: signal decomposition using an Ensemble Empirical Mode Decomposition algorithm, multi-domain parameter estimation from time and frequency representations, and a supervised feature selection based on the Relief-F technique. Accordingly, we decomposed the vibration signals by using self-adaptive analysis to represent nonlinear and non-stationary time series. Afterwards, time and frequency-based parameters were calculated to code complex and/or non-stationary dynamics. Subsequently, we computed a relevance vector index to measure the contribution of each multi-domain feature to the discrimination of different fuel blend estimation/diagnosis categories for ICE. In particular, we worked with an ICE dataset collected from fuel blends under normal and fault scenarios at different engine speeds to test our approach. Our classification results presented nearly 98% of accuracy after using a k-Nearest Neighbors machine. They reveal the way our approach identifies a relevant subset of features for ICE condition monitoring. One of the benefits is the reduced number of parameters.El monitoreo de condición de motores de combustión interna (MCI) facilita que las operaciones del sector industrial moderno sean más rentables. En este sentido, las señales de vibración comúnmente son empleadas como un enfoque no invasivo para el análisis de MCI. Sin embargo, el monitoreo de MCI basado en vibraciones presenta un desafío relacionado con las propiedades de la señal, la cual es altamente dinámica y noestacionaria, sin mencionar las diversas fuentes presentes durante el proceso de combustión. En este artículo, se propone una estrategia de análisis de relevancia orientada al monitoreo de MCI basado en vibraciones. Este enfoque incorpora tres etapas principales: descomposición de la señal utilizando un algoritmo de Ensemble Empirical Mode Decomposition, estimación de parámetros multi-dominio desde representaciones en tiempo y frecuencia, y una selección supervisada de características basada en Relief-F. Así, las señales de vibración se descomponen utilizando un análisis auto-adaptativo para representar la no-linealidad y no-estacionariedad de las series de tiempo. Luego, para codificar dinámicas complejas y/o no estacionarias, se calculan algunos parámetros en el dominio del tiempo y de la frecuencia. Posteriormente, se calcula un vector de índice de relevancia para cuantificar la contribución de cada una de las características multidominio para discriminar diferentes categorías de estimación de mezcla de combustible y diagnóstico de MCI. Los resultados de clasificación obtenidos (cercanos al 98% de acierto) en una base de datos de MCI, revelan como la propuesta planteada identifica un subconjunto de características relevantes en el monitorio de condición de MCI

    Formulación de proyectos de investigación : Una visión a la construcción de proyectos en ingeniería

    Get PDF
    La ciencia no hace más que avanzar y llevarnos a sitios nuevos e inexplorados. Pero la ciencia no avanza sola, hay que empujarla; acompañarla; trabajar días, meses, años o incluso más, hasta conseguir lo que se busca. Porque es así como todo empieza: buscando algo. En algún momento, alguien se da cuenta de que tiene una necesidad concreta para la cual no existe solución; o simplemente se le ocurre una idea de algo nuevo que le gustaría que existiera. Esa primera chispa puede venir de cualquier fuente y en cualquier circunstancia. Muchas no pasarán de ese punto, del comentario entre amigos sobre lo útil que podría ser cierta aplicación; pero otras encontrarán en esa primera idea el nacimiento de una parte del futuro. Así empezará un proyecto de investigación, con una idea transformada con los días en un objetivo más definido. De esta manera empezaron todos los grandes y pequeños descubrimientos. Y este proyecto no será solo una idea; será una planificación, será un estudio de lo que existe y lo que no; será tiempo y dinero invertido. En este libro trataremos sobre el proceso a seguir para poder redactar una propuesta de proyecto de investigación. En él se darán unas pautas sobre cómo pasar de una idea indefinida a un proyecto real — susceptible de ser aprobado por un grupo de evaluadores — y con capacidad de llevarse a cabo con éxito

    Contributions to speech analytics based on speech recognition and topic identification

    Get PDF
    La última década ha sido testigo de importantes avances en el campo de la tecnología de reconocimiento de voz. Los sistemas comerciales existentes actualmente poseen la capacidad de reconocer habla continua de múltiples locutores, consiguiendo valores aceptables de error, y sin la necesidad de realizar procedimientos explícitos de adaptación. A pesar del buen momento que vive esta tecnología, el reconocimiento de voz dista de ser un problema resuelto. La mayoría de estos sistemas de reconocimiento se ajustan a dominios particulares y su eficacia depende de manera significativa, entre otros muchos aspectos, de la similitud que exista entre el modelo de lenguaje utilizado y la tarea específica para la cual se está empleando. Esta dependencia cobra aún más importancia en aquellos escenarios en los cuales las propiedades estadísticas del lenguaje varían a lo largo del tiempo, como por ejemplo, en dominios de aplicación que involucren habla espontánea y múltiples temáticas. En los últimos años se ha evidenciado un constante esfuerzo por mejorar los sistemas de reconocimiento para tales dominios. Esto se ha hecho, entre otros muchos enfoques, a través de técnicas automáticas de adaptación. Estas técnicas son aplicadas a sistemas ya existentes, dado que exportar el sistema a una nueva tarea o dominio puede requerir tiempo a la vez que resultar costoso. Las técnicas de adaptación requieren fuentes adicionales de información, y en este sentido, el lenguaje hablado puede aportar algunas de ellas. El habla no sólo transmite un mensaje, también transmite información acerca del contexto en el cual se desarrolla la comunicación hablada (e.g. acerca del tema sobre el cual se está hablando). Por tanto, cuando nos comunicamos a través del habla, es posible identificar los elementos del lenguaje que caracterizan el contexto, y al mismo tiempo, rastrear los cambios que ocurren en estos elementos a lo largo del tiempo. Esta información podría ser capturada y aprovechada por medio de técnicas de recuperación de información (information retrieval) y de aprendizaje de máquina (machine learning). Esto podría permitirnos, dentro del desarrollo de mejores sistemas automáticos de reconocimiento de voz, mejorar la adaptación de modelos del lenguaje a las condiciones del contexto, y por tanto, robustecer al sistema de reconocimiento en dominios con condiciones variables (tales como variaciones potenciales en el vocabulario, el estilo y la temática). En este sentido, la principal contribución de esta Tesis es la propuesta y evaluación de un marco de contextualización motivado por el análisis temático y basado en la adaptación dinámica y no supervisada de modelos de lenguaje para el robustecimiento de un sistema automático de reconocimiento de voz. Esta adaptación toma como base distintos enfoque de los sistemas mencionados (de recuperación de información y aprendizaje de máquina) mediante los cuales buscamos identificar las temáticas sobre las cuales se está hablando en una grabación de audio. Dicha identificación, por lo tanto, permite realizar una adaptación del modelo de lenguaje de acuerdo a las condiciones del contexto. El marco de contextualización propuesto se puede dividir en dos sistemas principales: un sistema de identificación de temática y un sistema de adaptación dinámica de modelos de lenguaje. Esta Tesis puede describirse en detalle desde la perspectiva de las contribuciones particulares realizadas en cada uno de los campos que componen el marco propuesto: _ En lo referente al sistema de identificación de temática, nos hemos enfocado en aportar mejoras a las técnicas de pre-procesamiento de documentos, asimismo en contribuir a la definición de criterios más robustos para la selección de index-terms. – La eficiencia de los sistemas basados tanto en técnicas de recuperación de información como en técnicas de aprendizaje de máquina, y específicamente de aquellos sistemas que particularizan en la tarea de identificación de temática, depende, en gran medida, de los mecanismos de preprocesamiento que se aplican a los documentos. Entre las múltiples operaciones que hacen parte de un esquema de preprocesamiento, la selección adecuada de los términos de indexado (index-terms) es crucial para establecer relaciones semánticas y conceptuales entre los términos y los documentos. Este proceso también puede verse afectado, o bien por una mala elección de stopwords, o bien por la falta de precisión en la definición de reglas de lematización. En este sentido, en este trabajo comparamos y evaluamos diferentes criterios para el preprocesamiento de los documentos, así como también distintas estrategias para la selección de los index-terms. Esto nos permite no sólo reducir el tamaño de la estructura de indexación, sino también mejorar el proceso de identificación de temática. – Uno de los aspectos más importantes en cuanto al rendimiento de los sistemas de identificación de temática es la asignación de diferentes pesos a los términos de acuerdo a su contribución al contenido del documento. En este trabajo evaluamos y proponemos enfoques alternativos a los esquemas tradicionales de ponderado de términos (tales como tf-idf ) que nos permitan mejorar la especificidad de los términos, así como también discriminar mejor las temáticas de los documentos. _ Respecto a la adaptación dinámica de modelos de lenguaje, hemos dividimos el proceso de contextualización en varios pasos. – Para la generación de modelos de lenguaje basados en temática, proponemos dos tipos de enfoques: un enfoque supervisado y un enfoque no supervisado. En el primero de ellos nos basamos en las etiquetas de temática que originalmente acompañan a los documentos del corpus que empleamos. A partir de estas, agrupamos los documentos que forman parte de la misma temática y generamos modelos de lenguaje a partir de dichos grupos. Sin embargo, uno de los objetivos que se persigue en esta Tesis es evaluar si el uso de estas etiquetas para la generación de modelos es óptimo en términos del rendimiento del reconocedor. Por esta razón, nosotros proponemos un segundo enfoque, un enfoque no supervisado, en el cual el objetivo es agrupar, automáticamente, los documentos en clusters temáticos, basándonos en la similaridad semántica existente entre los documentos. Por medio de enfoques de agrupamiento conseguimos mejorar la cohesión conceptual y semántica en cada uno de los clusters, lo que a su vez nos permitió refinar los modelos de lenguaje basados en temática y mejorar el rendimiento del sistema de reconocimiento. – Desarrollamos diversas estrategias para generar un modelo de lenguaje dependiente del contexto. Nuestro objetivo es que este modelo refleje el contexto semántico del habla, i.e. las temáticas más relevantes que se están discutiendo. Este modelo es generado por medio de la interpolación lineal entre aquellos modelos de lenguaje basados en temática que estén relacionados con las temáticas más relevantes. La estimación de los pesos de interpolación está basada principalmente en el resultado del proceso de identificación de temática. – Finalmente, proponemos una metodología para la adaptación dinámica de un modelo de lenguaje general. El proceso de adaptación tiene en cuenta no sólo al modelo dependiente del contexto sino también a la información entregada por el proceso de identificación de temática. El esquema usado para la adaptación es una interpolación lineal entre el modelo general y el modelo dependiente de contexto. Estudiamos también diferentes enfoques para determinar los pesos de interpolación entre ambos modelos. Una vez definida la base teórica de nuestro marco de contextualización, proponemos su aplicación dentro de un sistema automático de reconocimiento de voz. Para esto, nos enfocamos en dos aspectos: la contextualización de los modelos de lenguaje empleados por el sistema y la incorporación de información semántica en el proceso de adaptación basado en temática. En esta Tesis proponemos un marco experimental basado en una arquitectura de reconocimiento en ‘dos etapas’. En la primera etapa, empleamos sistemas basados en técnicas de recuperación de información y aprendizaje de máquina para identificar las temáticas sobre las cuales se habla en una transcripción de un segmento de audio. Esta transcripción es generada por el sistema de reconocimiento empleando un modelo de lenguaje general. De acuerdo con la relevancia de las temáticas que han sido identificadas, se lleva a cabo la adaptación dinámica del modelo de lenguaje. En la segunda etapa de la arquitectura de reconocimiento, usamos este modelo adaptado para realizar de nuevo el reconocimiento del segmento de audio. Para determinar los beneficios del marco de trabajo propuesto, llevamos a cabo la evaluación de cada uno de los sistemas principales previamente mencionados. Esta evaluación es realizada sobre discursos en el dominio de la política usando la base de datos EPPS (European Parliamentary Plenary Sessions - Sesiones Plenarias del Parlamento Europeo) del proyecto europeo TC-STAR. Analizamos distintas métricas acerca del rendimiento de los sistemas y evaluamos las mejoras propuestas con respecto a los sistemas de referencia. ABSTRACT The last decade has witnessed major advances in speech recognition technology. Today’s commercial systems are able to recognize continuous speech from numerous speakers, with acceptable levels of error and without the need for an explicit adaptation procedure. Despite this progress, speech recognition is far from being a solved problem. Most of these systems are adjusted to a particular domain and their efficacy depends significantly, among many other aspects, on the similarity between the language model used and the task that is being addressed. This dependence is even more important in scenarios where the statistical properties of the language fluctuates throughout the time, for example, in application domains involving spontaneous and multitopic speech. Over the last years there has been an increasing effort in enhancing the speech recognition systems for such domains. This has been done, among other approaches, by means of techniques of automatic adaptation. These techniques are applied to the existing systems, specially since exporting the system to a new task or domain may be both time-consuming and expensive. Adaptation techniques require additional sources of information, and the spoken language could provide some of them. It must be considered that speech not only conveys a message, it also provides information on the context in which the spoken communication takes place (e.g. on the subject on which it is being talked about). Therefore, when we communicate through speech, it could be feasible to identify the elements of the language that characterize the context, and at the same time, to track the changes that occur in those elements over time. This information can be extracted and exploited through techniques of information retrieval and machine learning. This allows us, within the development of more robust speech recognition systems, to enhance the adaptation of language models to the conditions of the context, thus strengthening the recognition system for domains under changing conditions (such as potential variations in vocabulary, style and topic). In this sense, the main contribution of this Thesis is the proposal and evaluation of a framework of topic-motivated contextualization based on the dynamic and non-supervised adaptation of language models for the enhancement of an automatic speech recognition system. This adaptation is based on an combined approach (from the perspective of both information retrieval and machine learning fields) whereby we identify the topics that are being discussed in an audio recording. The topic identification, therefore, enables the system to perform an adaptation of the language model according to the contextual conditions. The proposed framework can be divided in two major systems: a topic identification system and a dynamic language model adaptation system. This Thesis can be outlined from the perspective of the particular contributions made in each of the fields that composes the proposed framework: _ Regarding the topic identification system, we have focused on the enhancement of the document preprocessing techniques in addition to contributing in the definition of more robust criteria for the selection of index-terms. – Within both information retrieval and machine learning based approaches, the efficiency of topic identification systems, depends, to a large extent, on the mechanisms of preprocessing applied to the documents. Among the many operations that encloses the preprocessing procedures, an adequate selection of index-terms is critical to establish conceptual and semantic relationships between terms and documents. This process might also be weakened by a poor choice of stopwords or lack of precision in defining stemming rules. In this regard we compare and evaluate different criteria for preprocessing the documents, as well as for improving the selection of the index-terms. This allows us to not only reduce the size of the indexing structure but also to strengthen the topic identification process. – One of the most crucial aspects, in relation to the performance of topic identification systems, is to assign different weights to different terms depending on their contribution to the content of the document. In this sense we evaluate and propose alternative approaches to traditional weighting schemes (such as tf-idf ) that allow us to improve the specificity of terms, and to better identify the topics that are related to documents. _ Regarding the dynamic language model adaptation, we divide the contextualization process into different steps. – We propose supervised and unsupervised approaches for the generation of topic-based language models. The first of them is intended to generate topic-based language models by grouping the documents, in the training set, according to the original topic labels of the corpus. Nevertheless, a goal of this Thesis is to evaluate whether or not the use of these labels to generate language models is optimal in terms of recognition accuracy. For this reason, we propose a second approach, an unsupervised one, in which the objective is to group the data in the training set into automatic topic clusters based on the semantic similarity between the documents. By means of clustering approaches we expect to obtain a more cohesive association of the documents that are related by similar concepts, thus improving the coverage of the topic-based language models and enhancing the performance of the recognition system. – We develop various strategies in order to create a context-dependent language model. Our aim is that this model reflects the semantic context of the current utterance, i.e. the most relevant topics that are being discussed. This model is generated by means of a linear interpolation between the topic-based language models related to the most relevant topics. The estimation of the interpolation weights is based mainly on the outcome of the topic identification process. – Finally, we propose a methodology for the dynamic adaptation of a background language model. The adaptation process takes into account the context-dependent model as well as the information provided by the topic identification process. The scheme used for the adaptation is a linear interpolation between the background model and the context-dependent one. We also study different approaches to determine the interpolation weights used in this adaptation scheme. Once we defined the basis of our topic-motivated contextualization framework, we propose its application into an automatic speech recognition system. We focus on two aspects: the contextualization of the language models used by the system, and the incorporation of semantic-related information into a topic-based adaptation process. To achieve this, we propose an experimental framework based in ‘a two stages’ recognition architecture. In the first stage of the architecture, Information Retrieval and Machine Learning techniques are used to identify the topics in a transcription of an audio segment. This transcription is generated by the recognition system using a background language model. According to the confidence on the topics that have been identified, the dynamic language model adaptation is carried out. In the second stage of the recognition architecture, an adapted language model is used to re-decode the utterance. To test the benefits of the proposed framework, we carry out the evaluation of each of the major systems aforementioned. The evaluation is conducted on speeches of political domain using the EPPS (European Parliamentary Plenary Sessions) database from the European TC-STAR project. We analyse several performance metrics that allow us to compare the improvements of the proposed systems against the baseline ones

    Reconocimiento de valvulopatías cardíacas en señales de fonocardiografía empleando la transformada Gabor

    Get PDF
    Se presenta en este trabajo una metodología de caracterización basada en la representación tiempo frecuencia de las señales fonocardiográficas con el fin de hacer reconocimiento de valvulopatías cardíacas. La naturaleza de estas patologías las hace susceptibles a ser caracterizadas por medio de representaciones en el espacio conjunto tiempo-frecuencia. Se emplea la transformada de Gabor para llevar los registros a este tipo bidimensional de representación. Los porcentajes de clasificación, mediante la cuales se evalúa la metodología, demuestran que es posible reconocer las valvulopatías dentro de un conjunto de registros normales.A time-frequency based methodology over phonocardiographic signals is presented in this work. The aim is to recognize cardiac disorders. The nature of these pathologies allows their representation in the joint domain of time frequency, the Gabor transform is performed in this task. The results demonstrate that is possible to recognize cardiacs disorders by means of this technique

    Nuevos experimentos en diarización de locutores para creación de voces para síntesis

    Get PDF
    Universal use of speech synthesis in different applications would require an easy development of new voices with little manual intervention. Considering the amount of multimedia data available on internet and media, one interesting goal is to develop tools and methods to automatically build multi-style voices from them. In a previous paper a methodology for constructing such tools was sketched, and preliminary experiments with a multi-style database were presented. In this paper we further investigate such approach and propose several improvements to it based on the selection of the appropriate number of initial speakers, the use or not of noise reduction filters, the use of the F0 feature and the use of a music detection algorithm. We have demonstrated that the best system using music detection algorithm decreases the precision error 22.36% relative for the development set and 39.64% relative for the test set compared to the baseline, without degrading the merit factor. The average precision for the test set is 90.62% ranging from 76.18% for reportages to 99.93% for meteorology reports.El uso universal de síntesis de voz en diferentes aplicaciones requeriría un desarrollo sencillo de las nuevas voces con poca intervención manual. Teniendo en cuenta la cantidad de datos multimedia disponibles en Internet y los medios de comunicación, un objetivo interesante es el desarrollo de herramientas y métodos para construir automáticamente las voces de estilo de varios de ellos. En un trabajo anterior se esbozó una metodología para la construcción de este tipo de herramientas, y se presentaron experimentos preliminares con una base de datos multiestilo. En este artículo investigamos más a fondo esta tarea y proponemos varias mejoras basadas en la selección del número apropiado de hablantes iniciales, el uso o no de filtros de reducción de ruido, el uso de la F0 y el uso de un algoritmo de detección de música. Hemos demostrado que el mejor sistema usando un algoritmo de detección de música disminuye el error de precisión 22,36% relativo para el conjunto de desarrollo y 39,64% relativo para el montaje de ensayo en comparación con el sistema base, sin degradar el factor de mérito. La precisión media para el conjunto de prueba es 90.62% desde 76.18% para los reportajes de 99,93% para los informes meteorológicos.The work leading to these results has received funding from the European Union under grant agreement n° 287678. It has also been supported by TIMPANO (TIN2011-28169-C05-03), INAPRA (MICINN, DPI2010-21247-C02-02) and MA2VICMR (Comunidad Autónoma de Madrid, S2009/TIC-1542) projects

    No se portugues

    No full text
    Entropy measurements are an accessible tool to perform irregularity and uncertainty measurements present in time series. In signal processing, the Multiscale Permutation Entropy (MPE) is recently presented as a methodology of characterization capable of measuring randomness and non-linear dynamics existing in non-stationary time series, such as mechanical vibration signals. In this article, the MPE is combined with diverse feature selection techniques and multiple classifiers based on machine learning aiming to detect different operative states in an internal combustion engine. The best combination is selected from the evaluation of parameters like precision and computational time. Finally, the proposed methodology is ratified through effectively performing a bearing fault diagnosis with a high precision rate and a reduced computational time.Las mediciones de entropía son una herramienta accesible para realizar mediciones de irregularidad e incertidumbre presentes en series de tiempo. Particularmente, en el área de procesamiento de señales, la Entropía de Permutación Multiescalar (MPE) se presenta como una metodología de caracterización capaz de medir la aleatoriedad y las dinámicas no lineales presentes en señales no estacionarias, como lo son las vibraciones mecánicas. En este artículo, se presenta una metodología robusta basada en MPE para la detección de estados de Motor de Combustión Interna (ICE). La MPE se combina con técnicas de visualización y selección de características y diversos clasificadores basados en aprendizaje de máquina. La metodología propuesta es validada mediante la comparación de precisión y tiempo de cómputo con otras presentadas en la literatura. Los resultados permiten apreciar una alta efectividad en la detección de fallos en rodamientos con un bajo consumo computacional
    corecore